L’intelligence artificielle peut-elle stimuler notre esprit critique ?

Octave A la Une, Culture & Change, Webmagazine Octave

L’intelligence artificielle peut-elle stimuler notre esprit critique ?


L’intelligence artificielle peut-elle stimuler notre esprit critique ?  

Tout le monde (ou presque) l’utilise… Et tout le monde (ou presque) la critique ! Voici l’IA, dans sa version appliquée à nos usages quotidiens : en voiture, au travail, à l’école, dans les loisirs, dans les comportements de consommation. Est-elle une menace pour l’intelligence humaine et spécifiquement pour la capacité à douter ? Ou au contraire un formidable terrain de jeu pour exercer nos compétences les plus philosophiques ? Revue des arguments disponibles à l’appui des recherches les plus récentes. 

Quand l’IA nous « prive » de compétences cognitives 

L’IA nous simplifie la vie. Mais serait-elle en train de nous simplifier le cerveau ? On la dit nocive pour nos capacités de mémorisation. Quand une panne géante a privé d’électricité une bonne partie de l’Espagne, du Portugal et le sud-ouest de la France, il s’est passé un drôle de phénomène : des gens cherchaient leur chemin pour rentrer chez eux et galéraient sévèrement, faute de GPS.  Sans attendre le prochain black-out, chacun pourra faire l’expérience d’une route empruntée 5, 10, 15 fois en comptant sur le système de positionnement par satellite sans être capable de refaire le trajet de mémoire.  

La récente étude du MIT consacrée aux effets de l’usage de l’IA sur le développement des compétences cognitives objective le problème : nos capacités de mémorisation, mais aussi d’attention et de réflexion sont entamées par le recours régulier aux agents conversationnels. C’est simple : la connectivité cérébrale est réduite quand on résout un problème avec ChatGPT (ou autre application du même type). Les activités effectuées avec le soutien de l’IA laissent des traces mémorielles résiduelles : 83% des utilisateurs étudiés dans l’expérience du MIT sont en grandes difficultés pour parler de leur propre travail et la plupart sont incapables de citer ce qu’ils ont pourtant produit.  

« Tout dépend de l’usage qu’on en fait »… 

Si vous paniquez à cette idée, il y a forcément quelqu’un dans votre entourage pour se lever et affirmer, outre le fait qu’on a encore besoin de recul et davantage d’études concurrentes pour se faire une religion sur la question, que les effets de l’IA sur nos capacités cognitives dépendent de l’usage que l’on en fait.  

Si on espère faire faire tout le boulot à une recette algorithmique sans se donner la peine de penser au-delà de la formulation de son prompt, il y a des chances pour que l’on n’apprenne rien, voire que l’on désapprenne rapidement à penser. Mais si on compte sur l’IA pour nous fournir une première version pas trop mal documentée et pré-organisée des idées forces de la réponse à une question, alors on pourrait donner le meilleur de soi-même en agissant en lecteur critique qui corrige les erreurs, traque les approximations et peaufine dans le détail, alors on pourrait bien atteindre des niveaux d’excellence inégalés !  

Dans ce schéma, on aurait une réjouissante illustration du principe de Pareto selon lequel 20% des efforts produisent 80% du résultat. Autrement dit, refilons les 80% du travail laborieux et ingrat à l’IA et réservons-nous la part belle de la qualité ! 

Le fantasme de la lampe d’Aladin 

Ce modèle conceptuel du rapport à l’IA dans le travail fonctionne à condition d’avoir un très solide esprit critique.  

Il va vous falloir pour commencer résister à la séduction qu’exerce une application capable de produire en quelques secondes ce qu’il vous faudrait des heures et des heures à concevoir, documenter, organiser, créer. Pas si facile tant la rapidité, la précision, la qualité d’exécution d’une IA peuvent s’avérer bluffantes 

Et puis, nous avons le fantasme de la lampe d’Aladin : la mise à disposition d’un génie qui nous voudrait du bien n’est-elle pas en soi un peu le signe que nous sommes une personne d’exception qui ne peut que s’élever au contact de la connaissance alliée au désir de réussir sa vie ? D’ailleurs, c’est fou comme depuis qu’on utilise l’IA, on est devenu brillant à l’écrit, cultivé et capable d’organiser notre pensée ; la preuve, notre dernière lettre de motivation est un chef d’œuvre et notre synthèse des enjeux de la réunion d’hier un boulot digne d’un 20/20.  

Un Sycophante dans mon smartphone  

Méfiez-vous de cet effet « djinn » car en plus d’être redoutablement efficace, l’IA générative est puissamment narcissisante. Son pire défaut, c’est sa tendance à flatter notre ego, indiquent des travaux de recherche conduits par les chercheurs d’un consortium international présentés dans le cadre de l’International Conference of Learning Representations 2025. Ils nomment ce phénomène la « sycophancy », en référence à la figure du démagogue de la cité athénienne qui passe de délateur professionnel à flagorneur incurable. Autrement dit, ChatGPT (ou autre) vous dit plutôt ce que vous avez envie de croire ! 

Mais pourquoi l’IA voudrait ainsi vous coincer dans des boucles de validation ? Parce que le processus de « reinforcement learning from human feedback » (RLFHF) repose sur la captation des signaux de satisfaction de l’utilisateur. Surprise : nous sommes plus satisfaits par les réponses de l’IA qui vont dans le sens de nos croyances que par celles qui perturbent nos repères. Pas de souci, l’appli a pigé : elle veillera à l’avenir à vous donner plutôt raison !  

Le super-pouvoir des « travailleurs du savoir » ?  

Même pas peur ! Vous êtes de ces personnes qui savent que « penser contre soi-même » est une qualité fondamentale et vous pratiquez assidûment l’autocontradiction pour entraîner inlassablement votre esprit critique ? Vous auriez fait un cobaye idéal pour l’étude parue en janvier 2025 qu’ont menée 7 chercheurs affiliés au Centre de recherche Microsoft de Cambridge et de l’Université Carnegie Mellon. Ils ont étudié une population de 319 « travailleurs du savoir », des gens dont c’est le cœur de métier de réfléchir, analyser, conceptualiser, douter, vérifier, confronter leurs idées à des pensées alternatives.  

Bonne nouvelle : les « travailleurs du savoir » confient les tâches qu’ils estiment « faciles » à l’IA, réservant à leur propre tête bien faite la réalisation des tâches qu’ils évaluent comme complexes et nécessitant une tout humaine finesse d’analyse. Moins bonne nouvelle : le résultat des tâches confiées à l’IA s’avère plus faible, moins créatif, et surtout moins diversifié que lorsque ces tâches sont réalisées par un sapiens qui se creuse les méninges.  

Pas si grave n’est-ce pas, s’il s’agit de tâches sans grand intérêt et pour lesquels il n’y a pas de temps à perdre ? A condition évidemment d’être sûr de son évaluation de ce qui est simple et de ce qu’il est moins 

Paradoxes de la confiance en soi 

L’étude de Cambridge-Carnegie Mellon met en évidence un drôle de paradoxe : les personnes qui se font le plus confiance pour déterminer si un problème mérite leur intelligence humaine ou devra se contenter de l’intelligence artificielle sont celles qui développent le plus rapidement un sentiment d’incapacité à résoudre des problèmes, que ceux-ci soient simples ou complexes. Tandis que celles qui doutent le plus de leurs capacités à évaluer a priori la complexité d’un problème et prennent le parti d’en prendre humainement en charge l’analyse sont celles qui se font le plus confiance pour résoudre des problèmes, quel qu’en soit le degré de complexité.  

En d’autres termes, plus je me fais confiance pour faire confiance à l’IA, moins j’ai confiance en moi. Inversement, moins je me fais confiance pour prendre la décision de confier ou non quelque chose à l’IA, plus j’augmente mon niveau de confiance en soi 

Le timing de l’esprit critique 

Ces résultats signifient que l’exercice de l’esprit critique est une compétence indispensable au bon usage de l’intelligence artificielle. Mais tout pourrait bien être une question de timing. Là où nous avons aujourd’hui le réflexe de confier à ChatGPT (ou autre) le soin de défricher le terrain en comptant sur notre esprit critique pour ensuite mettre notre patte à la production, il faudrait peut-être bien faire le processus inverse : réfléchir avant de soumettre nos problèmes à une intelligence artificielle… Car après, il nous sera beaucoup plus difficile d’exercer notre pouvoir de douter 

La question à se poser ne serait donc plus « et si je demandais à ChatGPT ? » mais plutôt « dois-je demander tout de suite à ChatGPT ? ». Relevez la tête, il y a peut-être dans l’open space quelqu’un qui a un début de réponse à votre question et avec qui vous pourriez engager une conversation… Et si vous avez vraiment de la chance, cette personne pourrait même ne pas aller dans votre sens ! 

 

Marie Donzel, pour le webmagazine Octave 

Share this Post